Seleccione idioma

Spanish

Down Icon

Seleccione país

Turkey

Down Icon

Cómo las voces más fuertes en IA pasaron de "regularnos" a "liberarnos"

Cómo las voces más fuertes en IA pasaron de "regularnos" a "liberarnos"
Dos años después de que Sam Altman presentara al Congreso las barreras para la inteligencia artificial, regresa a Washington con un nuevo mensaje: para vencer a China, hay que invertir en OpenAI.
Ilustración fotográfica: Redacción de WIRED; Fotografía: J. David Ake/Getty Images

El 16 de mayo de 2023, Sam Altman compareció ante un subcomité del Comité Judicial del Senado. El título de la audiencia fue "Supervisión de la IA". La sesión fue un encuentro apasionado, en el que tanto Altman como los senadores celebraron lo que Altman llamó el "momento de la imprenta" de la IA y reconocieron que Estados Unidos necesitaba leyes sólidas para evitar sus dificultades. "Creemos que la intervención regulatoria de los gobiernos será crucial para mitigar los riesgos de los modelos cada vez más potentes", declaró. Los legisladores escucharon atentamente cada palabra de Altman, quien exclamó con entusiasmo cómo unas leyes inteligentes podrían permitir el florecimiento de la IA, pero solo dentro de unas directrices firmes que tanto los legisladores como los desarrolladores de IA consideraban vitales en ese momento. Altman hablaba en nombre de la industria, que compartía ampliamente su postura. El grito de guerra fue "¡Regúlennos!".

Dos años después, el 8 de mayo de este año, Altman volvió a presentarse ante otro grupo de senadores. Los senadores y Altman seguían cantando la misma melodía, pero uno de ellos recurrió a una lista de reproducción diferente. Esta audiencia se tituló "Ganando la Carrera de la IA". En Washington D. C., la palabra "supervisión" ha caído en desuso, y el discurso sobre la IA no es la excepción. En lugar de abogar por que organismos externos examinen los modelos de IA para evaluar los riesgos, o por que las plataformas alerten a las personas cuando interactúan con ella, el presidente del comité, Ted Cruz, abogó por una vía en la que el gobierno no solo impulsara la innovación, sino que también eliminara barreras como la "sobrerregulación". Altman estaba de acuerdo con esta idea. Su mensaje ya no era "regúlenme", sino "inviertan en mí". Afirmó que la sobrerregulación, como las normas adoptadas por la Unión Europea o un proyecto de ley vetado recientemente en California, sería "desastrosa". "Necesitamos espacio para innovar y actuar con rapidez", afirmó. Las medidas de seguridad podrían ser necesarias, afirmó, pero debían implicar "una regulación sensata que no nos frene".

¿Qué ocurrió? Para empezar, el momento de pánico justo después de que se aprobara ChatGPT, y quedó claro que el Congreso no iba a actuar con rapidez en materia de IA. Pero el mayor avance es que Donald Trump recuperó la Casa Blanca y frenó el tono matizado y pro-regulación de la administración Biden. La doctrina de Trump sobre la regulación de la IA parece sospechosamente similar a la de Marc Andreessen, su partidario, quien declaró en su Manifiesto Tecnooptimista que la regulación de la IA era literalmente una forma de asesinato porque "cualquier desaceleración de la IA costará vidas". El vicepresidente J.D. Vance explicitó estas prioridades en una reunión internacional celebrada en París en febrero. "No estoy aquí... para hablar de la seguridad de la IA, que era el título de la conferencia hace un par de años", dijo. "Creemos que una regulación excesiva del sector de la IA podría acabar con una industria transformadora justo cuando está despegando, y haremos todo lo posible para fomentar políticas de IA que fomenten el crecimiento". Posteriormente, la administración presentó un Plan de Acción de IA “para mejorar la posición de Estados Unidos como potencia de IA y evitar que requisitos innecesariamente onerosos obstaculicen la innovación del sector privado”.

Este movimiento se enfrenta a dos adversarios. En primer lugar, la Unión Europea, que ha adoptado un régimen regulatorio que exige transparencia y rendición de cuentas a las principales empresas de IA. La Casa Blanca, al igual que quienes desarrollan empresas de IA en Estados Unidos, detesta este enfoque.

Pero el mayor fantasma es China. La posibilidad de que la República Popular supere a EE. UU. en la "Carrera de la IA" es tan impensable que la regulación debe dejarse de lado, o bien, hacerse con lo que Altman y Cruz describieron como una "manera ligera". Parte de este razonamiento proviene de una teoría conocida como "despegue brusco", que postula que los modelos de IA pueden alcanzar un punto de inflexión donde la superación ultrarrápida desencadena una vertiginosa espiral de supercapacidades, también conocida como IAG. "Si llegas primero, cobarde, no podré alcanzarte", dice el exdirector ejecutivo de Google, Eric Schmidt , refiriéndose a un competidor (Schmidt había estado hablando sobre el estatus de China como líder en código abierto). Schmidt es una de las voces que más advierten sobre este posible futuro. Pero la Casa Blanca probablemente esté menos interesada en la Singularidad que en la competencia económica clásica.

El temor a que China se adelante en materia de IA es el principal motor de la actual política estadounidense, sin importar la seguridad. La línea del partido incluso se opone a que estados individuales intenten llenar el vacío de inacción con leyes propias. La versión del megaproyecto de ley que exime de impuestos y recorta Medicaid, recientemente aprobado por la Cámara de Representantes, incluía una moratoria obligatoria de 10 años para cualquier legislación estatal sobre IA. Eso es una eternidad en términos de progreso en IA. (Los expertos afirman que esta disposición no sobrevivirá a cierta oposición en el Senado, pero cabe destacar que casi todos los republicanos de la Cámara votaron a favor).

No sorprende que el mundo de Trump rechazara la regulación y adoptara una postura patriotera sobre la IA. Pero ¿qué pasó con el aparente interés genuino de la industria por normas que garanticen que los productos de IA no se descontrolen? Contacté con varias de las principales empresas de IA esta semana y me indicaron blogs publicados, transcripciones de discursos y testimonios públicos, pero ningún ejecutivo quiso hablar públicamente sobre el tema. (Para ser justos, no les di mucho tiempo).

Un ejemplo típico de estos materiales fue el blog de políticas de OpenAI. Solicita "libertad para innovar", lo que significa, con toda probabilidad, la eliminación de leyes onerosas; fuertes controles de exportación; y una solicitud oportunista de "libertad para aprender". Se trata de una solicitud eufemística para que el Congreso redefina la propiedad intelectual como "uso legítimo" para que OpenAI y otras empresas puedan entrenar sus modelos con materiales con derechos de autor, sin compensar a los creadores. Microsoft también solicita esta bonanza. (Aclaración: Formo parte del consejo del Gremio de Autores, que está demandando a OpenAI y Microsoft por el uso de libros con derechos de autor como materiales de capacitación. Las opiniones expresadas aquí son mías).

El grupo regulador de "toque suave" (o nulo) tiene un excelente argumento: nadie sabe con certeza cómo elaborar leyes que prevengan los peores peligros de la IA sin ralentizar el ritmo de la innovación. Pero además de evitar riesgos catastróficos, hay muchas otras áreas donde la regulación de la IA no obstaculizaría la investigación. Estas incluyen la prohibición de ciertos tipos de vigilancia de la IA, los deepfakes y la discriminación; informar claramente a las personas cuando interactúan con robots; y exigir estándares más estrictos para proteger los datos personales en los sistemas de IA. (Admito que hice trampa al hacer esa lista; no usando ChatGPT, sino al referirme a los tipos de daños de la IA que la Cámara de Representantes no permitiría que los estados regularan).

La presión pública, o algún ejemplo espectacular de mal uso, podría llevar al Congreso a abordar esos problemas de IA en algún momento. Pero lo que perdura para mí es el cambio radical respecto a hace dos años, cuando la preocupación por los riesgos catastróficos dominaba las conversaciones en el mundo de la IA. La clara excepción a esto es Anthropic, que aún no se ha movido de una entrada de blog de finales de octubre —apenas unos días antes de las elecciones presidenciales— que no solo instaba a una regulación eficaz para "reducir los riesgos catastróficos", sino que prácticamente proponía el fin de los tiempos si no lo hacíamos pronto. "Los gobiernos deberían tomar medidas urgentes sobre las políticas de IA en los próximos dieciocho meses", decía en negrita. "La ventana para la prevención proactiva de riesgos se está cerrando rápidamente".

En este entorno, es prácticamente imposible que Anthropic consiga su deseo. Quizás no importe: podría ser que el temor a un apocalipsis de la IA sea exagerado. Sin embargo, cabe destacar que los líderes de casi todas las grandes empresas de IA predicen que, en unos años, alcanzaremos la inteligencia artificial general. Si se les presiona, también admitirán que controlar la IA, o incluso comprender su funcionamiento, es un proyecto en desarrollo. No obstante, el enfoque ahora se centra en acelerar el avance hacia una IA más potente, aparentemente para vencer a China.

Los chinos han dejado claro que no quieren rendir cuentas a los amos robóticos, al igual que nosotros. El principal rival geopolítico de Estados Unidos también ha mostrado cierto interés en imponer estrictas normas de seguridad. Pero si Estados Unidos insiste en eludir las barreras de seguridad y avanzar a toda velocidad hacia un futuro que no puede controlar, nuestro mayor competidor no tendrá más remedio que hacer lo mismo. Que gane el mejor despegue brusco.

wired

wired

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow